fr
Top des produits IA
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
Accueil
Actualités IA
AI Quotidien
Guides de monétisation
Tutoriels IA
Navigation des outils IA
Bibliothèque de produits IA
fr
Top des produits IA
Recherchez la dynamique mondiale des produits IA
Recherchez des informations sur l'IA mondiale et découvrez de nouvelles opportunités d'IA
Actualités
Applications de produits
Études de monétisation
Tutoriels IA
Type :
Actualités
Applications de produits
Études de monétisation
Tutoriels IA
2024-03-01 10:46:13
.
AIbase
.
6.2k
100 modèles d'exécution de code malveillant découverts sur la plateforme IA Hugging Face
Des chercheurs ont découvert environ 100 modèles d'apprentissage automatique malveillants sur la plateforme IA Hugging Face, susceptibles de permettre aux attaquants d'injecter du code malveillant sur les machines des utilisateurs. Ces modèles d'IA malveillants utilisent des méthodes comme PyTorch pour exécuter du code malveillant, augmentant ainsi les risques de sécurité. Les développeurs d'IA devraient utiliser de nouveaux outils comme Huntr pour améliorer la sécurité de leurs modèles d'IA. La découverte de ces modèles malveillants souligne les risques que représentent les modèles d'IA malveillants pour l'environnement des utilisateurs, et il est nécessaire de rester vigilant et de renforcer la sécurité.
2023-10-25 16:06:04
.
AIbase
.
2.5k
Recherche révèle un risque de manipulation de code malveillant par ChatGPT
Une étude britannique révèle que ChatGPT peut être utilisé pour générer du code malveillant. Plusieurs outils d'IA commerciaux présentent des failles de sécurité pouvant compromettre la sécurité des bases de données. Les chercheurs mettent en garde contre les risques potentiels. Certaines entreprises ont déjà adopté des recommandations pour corriger les failles de sécurité, mais il est nécessaire de renforcer les stratégies de cybersécurité.
2023-08-10 11:32:24
.
AIbase
.
304
Recherche IBM : les chatbots IA sont facilement trompés pour générer du code malveillant
{'1':'Une recherche IBM a révélé que les grands modèles linguistiques tels que GPT-4 peuvent être trompés pour générer du code malveillant ou fournir de faux conseils de sécurité. ''2':'Les chercheurs ont découvert qu'une simple connaissance de base de l'anglais et des connaissances contextuelles sur les données d'entraînement du modèle suffisent à tromper facilement les chatbots IA. ''3':'Différents modèles d'IA présentent des sensibilités variables à la tromperie, GPT-3.5 et GPT-4 étant les plus vulnérables.'}